2025년 10월 1일, 오픈AI CEO 샘 올트먼이 방한하여 대통령과 삼성전자·SK그룹 총수들을 면담하고, ‘글로벌 AI 인프라 구축 협력’을 골자로 한 협약(LOI·MOU)을 체결했다는 보도가 나왔다. 그러나 보도 내용을 검토한 결과, 이번 협약은 AI 인프라 공급망과 기술적 현실을 오인한 구조적 착각이 다수 발견된다.
따라서 이번 협약은 단순한 이벤트적 성격에 가깝고, 한국 기업과 정부가 전략적 판단 없이 글로벌 AI 담론에 휘둘릴 위험이 있다.
본 섹션은 보도된 사건의 핵심 요소를 정리한다.
HBM(High Bandwidth Memory)은 GPU 패키징과 직접 결합되어 AI 연산 성능을 좌우하는 핵심 반도체다. 시장에서의 수요를 결정하는 주체는 엔비디아, AMD, 인텔 등 GPU/칩 제조사이다. 오픈AI는 대규모 AI 모델을 운영·학습하는 조직으로서 GPU의 주요 구매자이지만, 반도체 생산량을 배정하거나 웨이퍼 단위의 생산 요구를 직접 제시할 권한이 없음은 물론이고 관여 자체가 넌센스다.
대형 AI 데이터센터의 설계·배치는 단순한 건설 프로젝트가 아니라, 하드웨어·소프트웨어·네트워크·운영(DevOps)·보안·에너지 관리 등을 통합하는 복합 시스템 공학이다. 현재 이 영역의 실행력을 보유한 주체는 Microsoft(Azure), Amazon(AWS), Google(Cloud), Oracle 등이다. 특히 Microsoft는 오픈AI의 주요 전략적 파트너이자 대규모 투자자다.
따라서 MS·AWS 등 주요 클라우드 사업자를 배제한 채 삼성·SK와 오픈AI만으로 데이터센터 생태계를 구축하겠다는 논의는 실행 가능성이 낮다.
해상(플로팅) 데이터센터는 냉각 효율, 부지 제약 완화 등의 장점이 있으나 유지보수 접근성, 규제, 경제성 문제로 실무 적용에 한계가 있다. Microsoft의 'Project Natick' 실험은 몇 년간의 연구 끝에 장기적 상용화의 경제성 부재를 이유로 철수 수순을 밟았다. 이런 철수 배경을 외면하고 동일 모델을 재도입하려는 시도는 기술적 맥락을 무시한 접근으로 판단된다.
보도된 5년간 5,000억 달러(약 700조원) 규모의 투자는 표면적으로는 데이터센터 건설을 의미하지만, 실제로는 클라우드 서비스, 모델 운영 비용, 소프트웨어·서비스 소비로 귀결될 가능성이 크다. 즉 투자 성격이 '자본재'인지 '소비재'인지에 따라 기업·정부의 리스크와 수익 배분 방식이 완전히 달라진다.
현재 오픈AI가 필요로 하는 투자는 소비재 구매에 대한 투자로 이익 발생 시 배분 원칙이다. 이는 현 트럼프 정부의 묻지마 투자 후 수익 발생 시 배분 원칙과 똑같다. 다만 말하는 뉘앙스가 다를 뿐이다.
구분 | 정상적 구조 | 보도된 협약 내용 | 문제점 |
---|---|---|---|
HBM 공급 | GPU 제조사(엔비디아 등)가 수요 주체 | 오픈AI가 직접 HBM 요청 | 공급망 위계 혼동 |
데이터센터 | MS·AWS·구글·오라클 주도 | 삼성·SK·오픈AI 독자 추진 | 실행 불가능성 |
해상 데이터센터 | 실험 후 철수(경제성 문제) | 재도입 추진 | 기술적·경제적 타당성 부족 |
투자 성격 | 자본재(인프라 투자) | 소비재적 비용 분담 가능성 | 투자 리스크 전가 |
생성형 AI의 진화는 단순한 데이터센터 양적 팽창이 아니라, 고성능 컴퓨팅(HPC) 아키텍처의 정교한 설계에 달려 있다. 자칫 글로벌 소비재 주요 구매자로서 지금처럼 조립과 유지보수에만 예산이 집중된다면, 이는 기술 혁신이 아닌 인프라 투자 실패로 이어질 수 있다.
이번 협약은 표면적으로는 대단한 성과처럼 비치지만, 세부적 분석 결과 다수의 구조적 오류가 드러났다. 보도가 실제 대화를 정확히 반영한 것이라면, 이는 한국의 AI 전략과 기업 의사결정에 심각한 재검토가 필요함을 시사한다.